ContextCapture 사용자 가이드

정사 사진/DSM

타사 GIS/CAD 소프트웨어 또는 이미지 처리 도구에서의 시각화 및 분석용으로 상호 운용 가능한 래스터 레이어를 생성합니다.

참고: 타일을 사용하면 정사 사진/DSM 제작 시 타일당 한 개의 파일을 생성합니다. 정사 사진 부분 병합 명령(ContextCapture 제작이 완료되면 사용 가능)을 사용하여 정사 사진 및 DSM용으로 한 개의 병합된 파일을 생성할 수 있습니다.

DSM 출력 형식

  • TIFF/GeoTIFF: 형상 참조 정보를 포함하는 표준 래스터 형식입니다.
  • ESRI ASCII raster/ASC: 그리드 교환용 일반 ASCII 형식입니다.
  • XYZ: 각 선에 X, Y 및 Z 좌표가 포함된 세 개의 열이 있는 기본 ASCII 형식입니다.

DSM을 처리하려면 참조 3D 모델 형상을 사용할 수 있어야 합니다.

정사 사진 출력 형식

  • TIFF/GeoTIFF: 형상 참조 정보를 포함하는 표준 래스터 형식입니다.
  • JPEG: 표준 압축 이미지 형식입니다.
  • KML Super-overlay: Google Earth에서 초대형 정사 사진을 실시간 3D로 표시하는 데 적합한 계층적 이미지 파일 형식입니다.

옵션

  • Sampling distance: 샘플링 거리 옵션입니다. 단위는 선택한 공간 참조 시스템에 따라 달라집니다.
  • Maximum image part dimension (px): 결과 래스터 파일에 대한 최대 타일 크기를 정의합니다.
  • Projection mode: 3D 모델에서 2D 데이터 레이어를 처리하는 방법(Highest point 또는 Lowest point)을 정의합니다.
  • Orthophoto/DSM: 해당 제작을 활성화하거나 비활성화합니다.
  • Color source:

    Optimized computation (visible colors): 실제 투영에 따라 보이는 컬러 밴드가 있는 최상의 사진이 선택됩니다.

    Optimized computation (thermal): 실제 투영에 따라 열 밴드가 있는 최상의 사진이 선택됩니다.

    Reference 3D model visible color: 보이는 컬러의 내부 참조 3D 모델을 있는 그대로 유지합니다(훨씬 더 빠름).

    Reference 3D model (thermal): 열 밴드가 있는 내부 참조 3D 모델을 있는 그대로 유지합니다(훨씬 더 빠름).

  • No data: 정보가 없음을 나타내는 픽셀 값 또는 컬러입니다.

정사 사진을 처리하려면 참조 3D 모델 텍스쳐 및 형상을 사용할 수 있어야 합니다.

주석 감지기

가장 먼저 설정할 것은 주석 유형입니다. 그래야 이후에 따로 명시된 특정 경우를 제외하고 사용자가 자신의 소스를 가져올 때 감지기가 사용되는 처리 과정에서 주석이 생성됩니다. 감지기는 특정 데이터에 대해 교육되었으며 동일한 종류의 데이터(동일한 특성, 동일한 환경, 동일한 데이터 품질 및 해상도)에서 실행하도록 최적화되거나 제한됩니다. 아래는 주석 처리에 사용할 수 있는 다양한 감지기 유형입니다.

  • 이미지 - 객체 감지기
  • 이미지 - 분할 감지기
  • 포인트 클라우드 - 분할 감지기
  • 정사 사진 감지기
  • 정사 사진 + DSM 감지기

감지기 유형은 특정 주석 유형에서 실행하도록 설계되었습니다. 예를 들어, 정사 사진 감지기는 3D 분할 작업에 사용할 수 없습니다. 일련의 감지기는 전용 벤틀리 커뮤니티 웹 페이지에서 사용 가능합니다.

이 페이지는 ContextCapture Master Annotations 페이지(Format/Options)에서 접근할 수 있습니다.

원하는 용도의 감지기가 없는 경우 개인 포털을 통해 도움말 요청을 제출하면 요구 사항을 설명할 수 있도록 초대됩니다.

주석 유형

2D Objects

이는 블럭을 구성하는 이미지의 객체를 감지합니다. 이미지에서 관심 객체 주위에 사각형 상자가 자동으로 그려집니다. 이러한 사각형 상자는 사진 뷰로 볼 수 있으며 제작 디렉터리에 구조화된 XML 파일로 기록할 수 있습니다.

관심 객체는 감지기가 인식하도록 교육된 객체입니다. 이 감지기에 대한 경로는 아래와 같이 정의되어야 합니다.

이 유형의 작업을 실행하는 데 이미지 객체 감지기만 사용할 수 있습니다.

2D Segmentation

데이터세트의 각 이미지는 사용하는 감지기에 따라 분류됩니다. 관심 클래스가 자동으로 추출됩니다. 이 경우 입력 이미지 각각에 대한 PNG 마스크가 생성됩니다. 이 마스크의 각 픽셀은 속성이 지정된 클래스(고유한 픽셀 값)를 얻습니다. 이 마스크 계열은 제작 디렉터리에 기록되고 단일 XML 파일로 블럭 이미지에 연결됩니다. 2D 분할 결과는 Photos 탭에서 검토할 수 있습니다. 관심 클래스는 감지기를 교육하는 동안 정의된 클래스입니다.

이 용도에는 이미지 분할 감지기만 사용할 수 있습니다.

3D Objects

관심 요소 주위에 일반 3D 객체(상자)를 제공합니다. 관심 요소는 가져오도록 선택한 2D 주석 또는 감지기에서 정의한 요소입니다. 3D 객체는 XML 형식으로 기록되고 DGN으로 내보낼 수 있습니다. 접합점 및 포인트 클라우드(사용 가능한 경우)를 사용하면 개별 인접 인스턴스를 보다 잘 식별할 수 있습니다. 최소 뷰 수는 주석이 3D 객체가 되는 데 필요한 고유 2D 감지의 양을 정의합니다.

3D 객체는 처리 후 3D 뷰로 표시되며 기존 매쉬 제작물을 덮어씌울 수 있습니다.

이 용도에는 이미지 객체 감지기만 사용할 수 있습니다.

3D Segmentation

이는 3D 포인트 클라우드의 분류를 실행합니다. 일반적으로 ContextCapture Engine에서 처리된 포인트 클라우드(재건 참조 매쉬) 또는 블럭에 가져온 포인트 클라우드(블럭 포인트 클라우드)입니다. 이 주석 작업에 대한 원시 결과는 분류된 포인트 클라우드입니다. 이 분류는 적절한 감지기를 실행한 후 또는 주석을 XML 형식으로 가져온 후에 얻습니다. 결과로 분류된 포인트 클라우드는 LAS 형식으로 내보낼 수 있지만 ContextCapture Master 3DView에는 표시할 수 없습니다. ContextCapture Editor에서는 결과로 분류된 LAS 파일을 관리할 수 있습니다.

3D 분할에서 개별 3D 객체를 내보낼 수도 있습니다. 이러한 3D 객체는 3D 포인트 클라우드 분류를 기반으로 생성되며, 동일한 클래스의 인접 포인트에서 1개의 개별 객체를 파생합니다. 3D 개별 객체는 XML로 기록되고(3D 객체 참조) DGN 또는 OBJ 파일로 내보낼 수 있습니다. 3D 분할에서 파생된 3D 객체는 ContextCapture Master 3D-View에 표시될 수 있습니다.

3D 객체를 구성하는 분류된 포인트 클라우드 부분도 개별 LAS 파일로 내보낼 수 있습니다. 추가 2D 객체 감지를 계산하거나 2D 객체 주석을 가져와 개별 3D 객체 식별을 개선할 수 있습니다. 이러한 경우 결과 주석은 여전히 분류된 포인트 클라우드이며, 이러한 클라우드는 이미지의 2D 객체 감지를 사용하여 최적화된 개별 3D 객체로 조인될 수 있습니다. 이 유형의 작업에는 이미지 분할 및 포인트 클라우드 분할 감지기만 사용할 수 있습니다. 이미지 객체 감지기도 사용할 수 있지만 인접 객체 분리를 최적화하는 보조 역할로 제한됩니다.

Segmented orthophotos

이 작업의 결과는 일련의 PNG 마스크와 쌍을 이룬 일련의 정사 사진(및 선택된 경우 DSM)입니다. 정사 사진은 일반적인 ContextCapture 정사 사진이며 제작 설정은 전용 섹션에 설명되어 있습니다. PNG 마스크는 사용자가 정의한 감지기에서 수행한 분류의 결과입니다. PNG 마스크는 지형 등록되어 있으며 RGB 정사 사진을 오버레이합니다. PNG 마스크의 각 픽셀에는 감지기에서 정의한 클래스에 해당하는 고유한 값이 있습니다.

감지기는 작업 제출 단계에서 정의해야 합니다. PNG 마스크를 분류한 후 벡터화는 다각면 파일 내보내기로 가능합니다. 이는 GIS 소프트웨어에서 최적화된 데이터 관리를 위해 연속 다각형의 클래스 오버레이를 변환합니다.

이 유형의 작업에는 정사 사진 및 정사 사진+DSM 감지기만 사용할 수 있습니다. DSM의 역할은 대상 요소의 높이에 따라 분류를 최적화하는 것입니다. 예를 들어, 건물 설치 공간이 있습니다. 감지기가 교육되었고 단일 정사 사진이 아닌 정사 사진+DSM 케이스에서 제출된 경우 이러한 추출이 더 정확합니다.

분할된 정사 사진은 ContextCapture Master 3DView에서 볼 수 없습니다.

Segmented mesh

분할된 매쉬의 결과는 텍스쳐가 감지된 요소에 따라 조명 컬러와 조화를 이루는 일반적인 ContextCapture 매쉬입니다. 일반적인 매쉬 제작 시 형식, LOD, 텍스쳐 크기 등의 설정은 사용자가 정의하며 주석에 대한 추가 설정이 정의됩니다.

감지기를 실행하거나 기존 주석을 XML 파일로 가져와 해당 텍스쳐에 매쉬 온보딩 클래스 정보를 생성합니다. 투표할 최소 뷰는 RGB 텍스쳐를 분류된 텍스쳐로 전환하는 데 필요한 감지된 발생 수의 양을 정의합니다.

분류된 매쉬는 ContextCapture Master 3DView(매쉬 형식에 따라)는 물론 2DSegmentation 결과(있는 경우)에서도 볼 수 있습니다.

이 유형의 작업에는 이미지 분할 및 포인트 클라우드 분할 감지기만 사용할 수 있습니다.

Mesh patches

매쉬 패치는 분류된 매쉬와 동일한 작업을 실행하지만 분류된 것으로 간주된 매쉬 텍스쳐의 모든 영역을 벡터화할 수 있습니다. 분할된 각 텍스쳐 패치를 OBJ 파일로 내보냅니다. 이러한 OBJ 파일 내에 포함된 모든 재질을 포인트 클라우드로 내보낼 수 있습니다.

이 유형의 작업에는 이미지 분할 및 포인트 클라우드 분할 감지기만 사용할 수 있습니다. 매쉬 패치는 ContextCapture Master 3DView에서 볼 수 없습니다.

LOD 명명 규칙 정보

LOD를 포함하는 3D 매쉬 제작물은 타일 이름, 상세 레벨 해상도 및 노드 경로(LOD 트리용)에 따라 노드 파일에 대한 특정 명명 규칙을 사용합니다.

"Tile_+000_+003_L20_000013.dae" 노드 파일의 의미는 다음과 같습니다.

  • Tile_+000_+003: 타일 이름입니다.
  • L20: 지상 해상도와 관련된 표준화된 상세 레벨입니다.
    표 1. 상세 레벨 및 지상 해상도 대응 표(샘플)
    상세 레벨 지상 해상도(미터/픽셀 또는 유닛/픽셀)
    12 16
    13 8
    14 4
    15 2
    16 1
    17 0.5
    18 0.25
    19 0.125
    20 0.0625
  • 000013: 노드 경로(선택 사항)로, LOD 트리용으로만 포함됩니다.

노드 경로의 각 숫자는 트리의 하위 인덱스(0부터 시작)에 해당합니다. 쿼드트리 및 옥트리 제작물의 경우 하위 인덱스는 하위 노드의 사분면/8분면을 명백하게 나타냅니다.

표 2. 단순 레벨 유형 LOD가 있는 제작물에 대한 노드 파일의 예
표 3. 쿼드트리 유형 LOD가 있는 제작물에 대한 노드 파일의 예